4.000 Google-Angestellte haben eine Petition unterzeichnet, in der sie den Konzern auffordern, sich nicht an der Entwicklung von Kampfdrohnen zu beteiligen. Einige Entwickler reichten ihre Kündigung ein.
Nachrichten des Tages
Pandemiegipfel am 10. August Diese Corona-Regeln fordert Spahn – Druck auf Ungeimpfte wächst. mehr
Tagesanbruch Der Merkel. mehr
Bundesanwaltschaft ermittelt Gesucht wegen Kriegsverbrechen – Syrer in Berlin festgenommen. mehr
Eklat um Sprinterin Timanowskaja ändert Fluchtroute – erst Wien, dann Warschau. mehr
Zahlreiche Mitarbeiter von Google haben den US-Technologiekonzern aufgerufen, sich vom "Geschäft mit dem Krieg" fernzuhalten. Google müsse klar erklären, dass weder der Internetriese noch seine Subunternehmen "jemals Kriegstechnologie herstellen", hieß es in einer Petition, die Berichten zufolge rund 4.000 Angestellte bis Dienstag unterzeichneten. Darin fordern sie Google auf, Drohnenprogramme des US-Militärs nicht mithilfe künstlicher Intelligenz zu verbessern. Dem Internetportal "Gizmodo" zufolge reichten bereits mehrere Entwickler aus ethischen Gründen ihre Kündigung ein.
Hintergrund der Proteste ist das sogenannte "Project Maven", bei dem laut US-Medien intelligente Algorithmen bei der Erkennung und Unterscheidung von Menschen in Drohnenvideos für das Pentagon zum Einsatz kommen. "Wir fordern, dass das 'Project Maven' gestoppt wird", heißt es in der Petition, von der Kopien im Internet veröffentlicht wurden. "Wir glauben, dass Google nicht im Geschäft mit dem Krieg sein sollte."
Aktuelle Nachrichten im Video
Andere Organisationen unterstützen die Petition
Das Unternehmen war am Dienstag für eine Stellungnahme zunächst nicht zu erreichen. Unterstützung für die Petition kam von der US-Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) und dem International Committee for Robot Arms Control (ICRAC), das sich dafür einsetzt, die militärische Nutzung von Robotern zu begrenzen.
Auch wenn die durch künstliche Intelligenz gewonnenen Erkenntnisse noch einmal von menschlichen Analysten überprüft werden sollten, könne diese Technologie den Weg für automatisierte Zielerfassungssysteme bei Kampfdrohnen ebnen, schrieb das ICRAC in einem offenen Brief. "Wenn Befehlshaber des Militärs zu der Erkenntnis gelangen, dass die Algorithmen verlässlich sind, gibt es die Versuchung, die Überprüfung durch Menschen für diese Systeme abzuschwächen oder sogar abzuschaffen."
Dann sei die Menschheit "nur einen kleinen Schritt davon entfernt, autonomen Drohnen zu erlauben, automatisiert zu töten – ohne menschliche Aufsicht oder aussagekräftige Kontrolle", warnte das Komitee.
Experten sprechen von einem "düsteren Bild"
Google habe in der Vergangenheit betont, die Arbeit des Technologiekonzerns zur Verbesserung der Fähigkeiten zur Objekterkennung diene keinen Angriffszwecken, erklärte die EFF. Nun zeige sich allerdings ein "düsteres Bild", schrieben die EFF-Direktorin Cindy Cohn und -Chefentwickler Peter Eckersley in einem Online-Beitrag im vergangenen Monat.
Durch die von Google bereitgestellte Technologie könnten von Drohnen erkannte Objekte oder Menschen für eine Überprüfung durch Menschen markiert werden. Dies könne dann in einigen Fällen tatsächlich zu Luftangriffen führen, warnen Cohn und Eckersley. Dadurch stehe aus ethischer Sicht enorm viel auf dem Spiel – "selbst wenn in dieser Tötungskette noch weiter oben Menschen sind."
Fachleute fordern eine Debatte über die Nutzung künstlicher Intelligenz
Sowohl EFF als auch ICRAC riefen dazu auf, eine ernsthafte Debatte über die Notwendigkeit ethischer Rahmenbedingungen für die Nutzung künstlicher Intelligenz in der Waffentechnik zu führen. Diese Debatte sei von entscheidender Bedeutung und müsse international geführt werden, forderte die Electronic Frontier Foundation. Firmen wie Google müssten sich der Folgen ihres Handels bewusst sein und von den Militärvertretern Verhaltensstandards und Verantwortlichkeit einfordern - ebenso wie von sich selbst.